#Google AI
8 年後回到史丹佛,布林復盤Google AI:錯在太謹慎
“我們搞砸了。”2025 年 12 月 12 日,史丹佛工程學院百年慶典。Google聯合創始人謝爾蓋·布林(Sergey Brin)回到母校,坐在講台中央,開門見山:Transformer論文是我們發的,但我們沒有足夠認真對待它。算力沒跟上,產品不敢推,就怕聊天機器人說蠢話。時間回到  2017 年。那一年,Google發佈Transformer,技術上領先全球。但 5 年後,率先把大模型變成產品的,卻是 OpenAI。ChatGPT 橫空出世,Claude緊隨其後。而Google,錯過了AI的第一輪爆發。布林沒有迴避這段歷史。他直言:我也在場,但我們沒有行動。2022 年底,他重新回歸Google,親手參與 Gemini的每一個關鍵決策。這一次回到史丹佛,他不講情懷,只講三件事:Google錯在那?現在怎麼追?這場仗,怎麼打?第一節|發明了Transformer,卻輸給了OpenAI2017年,Google的研究團隊發表了那篇劃時代的論文《Attention is All You Need》。Transformer架構由此誕生,點燃了整個大模型時代。彼時Google內部並非沒有察覺其顛覆性意義。Jeff Dean帶隊推動Google Brain,Sundar Pichai在各種公開場合強調AI first,技術積累從未停止。但他們沒敢把這場變革真正推向市場。在史丹佛的公開訪談中,布林承認了這段從領先到落後的全過程:“我們沒投夠算力,太怕產品失控……Chatbots會說蠢話,我們就遲疑了。OpenAI那邊把事情做出來了,很多還是我們的人。包括Ilya,都是我們原來的員工。”這不是情緒化的復盤,而是一份源自一線技術人員的戰略反思。回顧那幾年,Google內部的典型姿態是:算力要調配到更穩妥的應用;模型研究繼續,但謹慎對外發佈;對話式AI被視為高風險、難把控的方向。直到 2022 年底,ChatGPT 引爆全球。Google才終於意識到,自己不是輸在技術,而是敗在心理預期與組織氣質。布林也是在那一刻,決定重新回到公司。他沒在這場訪談裡指責任何人,但他幾次重複一個詞:我們。“We definitely screwed up(我們確實搞砸了).”在那場決定未來十年的 AI 路口,布林在場,也確實錯過了。 但他沒有迴避,而是親自回場修正。第二節|他每天都在用Gemini這一次回來,布林不再只是坐在辦公室裡面聽匯報,而是全職回到研發一線。在訪談裡,他透露,自己從2022年底起幾乎每天都在參與Gemini的研發:親自指導團隊目標;用AI工具分配任務、判斷人才;和Gemini每天對話,連在車上都聊。他要用這種方式向團隊證明:技術人的工作方式,必須和 AI 協作重新定義。他甚至在開車時也會向 Gemini提問。無論是編寫程式碼、設計晶片架構,還是計算電力成本,他都會先請教它,儘管它並不完美,但確實能幫他形成新思路。這不是象徵性的參與,而是一個創始人在用行動告訴團隊:AI 不是工具,而是新的工作方式。在他看來:“AI不是靠單點突破贏,而是靠一整套智能系統,讓人能真正用起來。”如果說 2017 年他們太謹慎,沒敢把Transformer推到台前;那麼2025年,布林親自站在一線,把 Gemini 真正用出來。這是一場落後之後的追趕,也是一個創始人對技術方向的再下注。第三節|Google怎麼追:平台化,不是單點突破Gemini 的定位,從一開始就不是為了再做一個ChatGPT。布林團隊的目標更像是:重構工具鏈,取代人類開多個軟體、切多個窗口的工作方式。從2025年12月的產品更新節奏可以看出戰略意圖:Gemini 3 Pro正式上線:強調多步推理、低幻覺、複雜任務能力,意在超越對話助手的範疇;Gemini Deep Research發佈:不僅能生成研究摘要,還能與資料互動、進行工具呼叫,走向科研工作流助手;MCP託管服務推出:統一模型上下文協議,打通AI與Google自家生態(Maps、BigQuery、Gmail、Finance);AI眼鏡Project Aura官宣:聯動XREAL、三星、Warby Parker,押注AI×空間×多模態硬體入口。這一整套動作指向同一個方向:不是讓你搜尋答案,而是讓AI代你完成整個任務。與之對照,OpenAI 在同一時期發佈GPT-5.2,主攻長上下文處理和對話能力提升,繼續強化ChatGPT作為終極對話智能體的定位。兩家公司的路徑開始分叉。OpenAI 的商業入口聚焦在ChatGPT企業版、瀏覽器外掛和API介面,本質上是讓AI成為更好的對話夥伴。而Google選擇的是平台式工具生態。通過MCP協議,將其他模型、Agent、工具整合進來,把Workspace、Search、Maps、甚至硬體裝置都變成 AI 的觸點。它不追求單個模型最強,而是要讓整個生態最好用。布林在訪談中提到一個關鍵點:“很多公司卡在 AI 能力有了,但落地成本太高。如果我們能讓Agent像API一樣即插即用,這個時代就打開了。”換句話說,Google不只想做一個模型,而是把Gemini變成一套AI介面標準。就像Android定義了移動作業系統,Gemini要定義的是AI 工具的協作方式。第四節|別急著商業化整場對話最有意思的一幕,不是談產品或戰略,而是布林給年輕人的建議。主持人問他:AI正在改變一切,年輕人該怎麼選專業?是不是不該學程式設計了?布林沒有兜圈子,他直言:“我就是學電腦出身的。我不會因為AI現在能寫程式碼,就去轉學文學專業。目前 AI 在文學上可能更強,但程式設計仍然有巨大市場價值。而且,更好的程式設計才能做出更好的 AI。”為什麼這麼說?他給出了兩個理由:第一,AI 能寫程式碼,不代表工程師沒用了。反而意味著工程師需要更強的結構化思維與調度能力。第二,技術力仍是拉開 AI 應用差距的核心。門檻沒有降低,只是能力要求變得更複雜了。但這並不意味著非專業人士就被拒之門外。他還舉了個對比:作為非晶片專家,他現在想瞭解架構、算力預算、冷卻方案,直接用Gemini問一輪,就能快速抓住方向。換句話說:AI降低的是學習門檻,而不是應用門檻。重要的不是你腦子裡存了多少知識,而是你會不會用AI快速定位並掌握需要的知識。對於學生,他建議把注意力放在兩個方向:如何用好AI工具,把創意變成實際工作流;如何與AI協作,培養自己獨特的思考和判斷能力。而對於創業者,他的建議更直接:“不要怕犯錯。這次Gemini,我們在很多核心功能還沒完全打磨好時就上線了,就是想讓它先真正可用,再談擴張。”這句話聽起來像是在鼓勵快速迭代,但重點其實在“真正可用”四個字上。很多 AI 公司在搶速度、拼融資、趕風口時,做的往往是技術demo或概念產品。但布林強調的是:先做出使用者願意每天用的工具,再談完善和擴張。這才是Google現在真正的護城河。結語|不是神話,是選擇布林這次回到史丹佛,講的是一個公司錯過了起點,然後用 8 年追回來的故事。不是靠戰略調整,而是靠創始人每天參與、親自使用、把工具真正用出來。2017年,Google發明了Transformer,但太謹慎沒敢推。2025年,布林親自回場,把Gemini變成了一整套工具鏈。從錯過到追回,靠的不是運氣,而是選擇。技術的錯過,可以靠參與補回來。但前提是,你要在落後的時候,敢回場,敢做事。 (AI深木度研究員)
Google豪賭背後,一場靜默的中國供應鏈革命
12月9日,Google正式發佈Android XR平台,並展示了與中國企業XREAL聯合打造的Project Aura——一款被定義為“Gemini AI第一雙原生空間之眼”的消費級AR眼鏡。在AI與XR深度融合的新戰場上,矽谷巨頭正在以一種前所未有的姿態,將核心硬體能力的話語權交到中國企業手中。這個訊號的深意,遠比表面呈現的更加複雜。當我們將視線穿透產品本身,審視這場發佈會背後的產業邏輯時,會發現在這個被視為下一代計算平台的賽道上,中國的光學系統、晶片設計和製造供應鏈,正在從代工者悄然轉變為定義者。某種意義上,一場靜默的“反向卡脖子”正在發生。Google的“第二次入場”:一場遲到但志在必得的豪賭理解Google此番佈局的深意,需要先回溯其在可穿戴裝置領域的曲折歷程。2013年,Google眼鏡以顛覆者的姿態驚豔亮相,卻因隱私爭議、高昂定價和孱弱的應用生態黯然離場。十餘年過去,當Meta憑藉Ray-Ban智能眼鏡悄然佔據市場,當蘋果以Vision Pro重新定義空間計算的產品形態,當字節跳動、華為等中國玩家在XR賽道密集佈局時,Google發現自己正處於一個危險的位置:它擁有全球最先進的AI能力,卻缺乏一個能讓這種能力“走出螢幕”的硬體載體。Meta的Ray-Ban智能眼鏡這正是Android XR平台的戰略核心所在。Google試圖複製其在智慧型手機時代的成功路徑——通過開放平台吸引硬體合作夥伴,建立生態標準,最終實現系統級的統治地位。但這一次,它面臨的挑戰遠比當年更加嚴峻。智能眼鏡不是智慧型手機的簡單延伸,它需要在光學顯示、空間計算、續航散熱和佩戴舒適性之間尋找極其精細的平衡點。而這些平衡點的技術實現,恰恰是Google自身並不擅長的領域。於是,一個有趣的現象出現了:在Android XR平台的首發產品矩陣中,最具技術含量的Project Aura,其核心硬體研發幾乎全部由中國團隊完成。X-Prism光學系統由XREAL中國團隊獨立研發量產,X1S空間計算晶片由XREAL端到端自研,完整供應鏈紮根長三角。Google提供了AI大腦和軟體平台,但讓這個大腦“看見世界”的眼睛,卻是中國製造。當前的XR市場正處於一個微妙的臨界點。從產品形態上看,存在三條平行演進的路徑:以蘋果Vision Pro為代表的高端沉浸式頭顯,以Meta Ray-Ban為代表的輕量化智能眼鏡,以及介於兩者之間的AR顯示眼鏡。這三條路徑分別對應著不同的使用場景、技術難度和市場定位,尚未出現誰將最終勝出的明確訊號。從市場份額來看,Meta憑藉先發優勢和激進的定價策略佔據了消費級智能眼鏡的主導地位。Ray-Ban Stories系列累計銷量已突破數百萬台,建立起了初步的使用者認知和使用習慣。蘋果Vision Pro雖然在技術上實現了諸多突破,但3499美元的高昂定價嚴重限制了其市場滲透,更多地扮演著技術燈塔的角色。至於Google,在Android XR發佈之前,其在XR硬體領域幾乎是一片空白。但市場份額並不能完全反映競爭的真實態勢。XR產業仍處於極早期階段,現有的銷量數字在未來可能出現數量級的變化。真正決定長期競爭格局的,是三個關鍵要素:AI能力的深度整合程度、硬體形態的成熟度,以及生態系統的開放性。從這三個維度審視,Google此番入局的時機選擇頗具深意。首先,Gemini AI的能力已經發展到足以支撐空間計算場景的臨界點。多模態理解、即時視覺推理、上下文感知對話——這些能力的組合,使得AI真正具備了理解世界的基礎能力。其次,硬體技術的成熟度也在快速提升。Micro OLED顯示、先進光學設計、低功耗空間計算晶片,這些技術的進步使得消費級AR眼鏡成為可能。最後,Android的開放生態基因使其天然適合扮演平台角色,這是蘋果封閉生態所不具備的優勢。技術突破的關鍵節點:當AI開始“看見”世界Project Aura之所以被稱為“Gemini AI的第一雙原生空間之眼”,源於其實現了AI與XR的深度原生融合。這種融合並非簡單地將AI助手嵌入眼鏡裝置,而是讓AI真正具備了空間理解和環境互動的能力。要理解這一突破的意義,需要先釐清AI能力演進的脈絡。大語言模型讓AI“能聽會說”,多模態模型讓AI“能看會畫”,但這些能力仍然被困在二維螢幕的邊界內。AI可以分析一張照片,但無法持續感知真實環境的變化;可以理解一段對話,但無法將對話內容與物理空間關聯。Project Aura試圖打破這一邊界。通過三個攝影機、麥克風和環境感測器的組合,Gemini首次能夠在真實世界中建構“連續、可互動、可理解”的空間語義模型。這種能力的實現依賴於幾項關鍵技術的協同突破。光學系統方面,70度視場角(FOV)是消費級AR眼鏡目前能實現的最大實用視場,它決定了數字內容能夠多大程度地自然疊加在真實環境中。XREAL的X-Prism棱鏡透鏡技術在這一指標上達到了行業領先水平,同時將整體重量控制在可日常佩戴的範圍內。空間計算方面,X1S晶片建構了低延遲、高精度的空間智能鏈路,能夠同時處理三個攝影機的資料輸入,實現全房間追蹤和手勢識別。AI推理方面,Gemini的端側部署使得即時語義理解成為可能,使用者可以用手指在空中圈選任何物體,立即獲得相關資訊和搜尋結果。CNET記者Scott Stein在體驗後寫道:“坐在沙發上戴著Project Aura,這副原型眼鏡立即讓我感覺像是VR被縮小到了更小的形態。”他啟動了一個無線連接的電腦視窗,用手勢控制應用,甚至運行了VR遊戲Demeo。“最令我驚訝的是,所有這些都可以僅憑一副眼鏡實現。”這種評價的份量在於,它來自一個見證了過去十年幾乎所有XR產品的資深觀察者。然而,技術突破並不意味著產業成熟。心智觀察所之前曾撰文指出,智能眼鏡領域存在一個被業內稱為“不可能三角”的結構性難題:全天候舒適佩戴、極佳的顯示效果、強大的AI智能化——當前沒有任何一款裝置能夠同時完美解決這三點。舒適佩戴要求裝置重量極輕、發熱量低、外觀時尚,這意味著電池容量、晶片算力和顯示單元尺寸都必須大幅壓縮。極佳的顯示效果要求高解析度、大視場角、高亮度和良好的透光率,這需要更複雜的光學系統和更大的顯示單元。強大的AI智能化要求高算力的晶片、豐富的感測器和持續的網路連線,這進一步增加了功耗和發熱。這三個維度彼此制約,形成了一個難以突破的技術瓶頸。XREAL創始人兼CEO徐馳坦承,Project Aura並不試圖解決全天佩戴的問題,其定位是可攜式工作裝置而非日常穿戴配件。但他同時預測,未來智能眼鏡可能會演化出二元化的產品形態:一種主打35克以下的全天候佩戴,以犧牲顯示效果和算力為代價;另一種則以更好的顯示效果為基準,重量約50至60克,適合特定場景的沉浸式使用。除了硬體層面的不可能三角,智能眼鏡還面臨著軟體生態和使用者接受度的雙重挑戰。應用開發者需要為全新的互動範式重新設計產品,而使用者則需要克服將裝置佩戴在面部的心理障礙和社會壓力。Google眼鏡當年的失敗,很大程度上源於這兩個層面的不成熟。即便技術已經取得長足進步,這些非技術因素仍然是產業化道路上的重要變數。靜默的權力轉移:中國供應鏈如何重塑行業格局在討論智能眼鏡產業的未來時,一個經常被忽視的維度是供應鏈的權力結構。過去十年,中國製造在全球科技產業鏈中的角色,主要是成本優勢驅動的代工和組裝。但在XR這個新興賽道上,情況正在發生根本性的變化。Project Aura的案例極具說明性。這款被Google定位為Android XR平台最完整、最接近理想形態的硬體樣本的產品,其核心技術幾乎全部來自中國。X-Prism光學系統是消費級AR眼鏡最關鍵的技術壁壘之一,它決定了裝置的視場角、清晰度、色彩還原和佩戴舒適度,而這一系統由XREAL中國團隊從零開始獨立研發並實現量產。X1S空間計算晶片是另一個技術高地,它需要在極低功耗下實現多攝影機資料的即時處理和空間定位,而這顆晶片由XREAL端到端自主設計。更值得關注的是,支撐這些核心技術的完整供應鏈已經在長三角地區成型。從光學鏡片的精密加工,到Micro OLED螢幕的生產,再到晶片的封裝測試和整機組裝,一條高度整合、快速迭代的產業鏈正在形成閉環。上海作為XREAL的全球研發中心,正在成為智能眼鏡產業創新的核心樞紐。這種供應鏈格局的形成並非偶然。智能眼鏡對製造精度的要求遠超智慧型手機,光學系統的微米級公差控制、顯示模組的精密貼合、整機的輕量化設計,每一個環節都需要長期積累的工藝經驗和快速迭代的能力。中國製造業在消費電子領域二十餘年的積澱,恰恰為這一新賽道提供了堅實的基礎。如果說過去幾年中美科技競爭的主旋律是美國對中國的“卡脖子”——從晶片製造裝置到EDA軟體,從先進製程到AI晶片——那麼在XR領域,一種反向的依賴關係正在悄然形成。讓我們做一個假設:如果XREAL或其他中國XR供應商決定不再向海外整機廠商提供核心光學模組和空間計算晶片,會發生什麼?Google的Android XR平台將失去其最具競爭力的硬體載體;Meta的下一代AR眼鏡可能面臨關鍵零部件的供應中斷;甚至蘋果,儘管其自研能力強大,也不得不依賴中國供應鏈來實現規模量產。這並非危言聳聽。在AR光學這個細分領域,中國企業已經建立起了難以綁過的技術和產能優勢。Birdbath方案、自由曲面棱鏡、光波導——無論那種技術路線,中國供應商都處於全球領先位置。而在Micro OLED和Micro LED顯示領域,中國企業同樣佔據著重要份額。更重要的是,這些技術優勢是與製造能力深度繫結的——即便競爭對手獲得了設計圖紙,要在短期內建立起具有競爭力的生產線幾乎不可能。徐馳在極客公園創新大會上的一番話頗耐尋味:“沒有任何一家公司能包攬系統、AI與硬體的所有創新。下一代計算平台需要一個全球化創新聯盟。而中國憑藉最完整的製造鏈條與最快的硬體創新速度,第一次真正站在了定義未來標準的位置。”這番表態的潛台詞是:中國不再只是執行別人定義的標準,而是有能力參與甚至主導標準的制定。當然,“反向卡脖子”的能力並不意味著一定會被使用。全球科技產業的相互依存是雙向的,任何一方的脫鉤都會帶來巨大的成本。但能力本身就是一種談判籌碼,它改變了博弈的基本結構。在過去,中國企業在與海外巨頭的合作中往往處於被動地位,核心技術和利潤分配由對方主導。而在XR這個新賽道上,中國企業有機會以更平等的姿態參與全球競爭,甚至在某些環節掌握主動權。增量資料的入口:眼鏡通向AGI的必經之路?徐馳提出了一個引人深思的觀點:“眼鏡所帶來的增量資料,很可能是AI通向AGI的必經之路。”這一論斷的邏輯在於,當前AI訓練所依賴的公域和私域資料都已接近枯竭,而智能眼鏡將成為為AI提供更多個性化增量資料的最佳入口。這個觀點觸及了AI發展的一個核心瓶頸:資料。大語言模型的能力提升在很大程度上依賴於訓練資料的規模和質量,而網際網路上可用的高品質文字資料正在被快速消耗。視覺資料、空間資料、行為資料——這些智能眼鏡能夠持續採集的多模態資訊,可能是下一階段AI能力躍升的關鍵燃料。如果這一判斷成立,那麼智能眼鏡的戰略意義將遠超其作為消費電子產品的範疇。它將成為AI能力演進的基礎設施,而掌握這一基礎設施的企業和國家,將在AI時代佔據戰略高地。從這個角度看,中國企業在智能眼鏡核心技術上的突破,其意義不僅在於一個新產品品類的競爭力,更在於對AI發展基礎資源的控制力。徐馳預測,一個真正具備“iPhone時刻”意義的智能眼鏡產品將在未來兩到三年內問世。如果真是2027年,那恰好是20年的輪迴:從2007年初代iPhone到2027年。這個時間預測是否精準尚待驗證,但其背後的判斷邏輯值得重視:技術成熟度、生態準備度和使用者接受度正在同時逼近臨界點。Google此番發佈Android XR平台和Project Aura,正是這一臨界點的訊號之一。它表明,即便是擁有全球最強AI能力的科技巨頭,也必須借助中國的硬體創新能力才能將願景轉化為產品。它也表明,下一代計算平台的競爭將不再是單一公司或單一國家的獨角戲,而是一場全球化的協作與博弈。在這場博弈中,中國的位置正在發生微妙而深刻的變化。從全球工廠到創新源頭,從標準執行者到標準定義者,從被動依附到可以反制——這些變化或許還不夠顯性,但其勢能正在積聚。當AI開始“長出眼睛”,中國製造的技術基因,已經深深嵌入了這雙眼睛的每一個零部件之中。未來已來,只是分佈不均。而在智能眼鏡這個承載下一代計算平台願景的賽道上,中國或許正站在分佈最密集的那個節點上。 (心智觀察所)
比GPU性能更強?TPU全解析(AI算力、Google、輝達、智算中心)
AI能在幾秒內處理百萬條資料,背後靠的是什麼晶片?常聽人說GPU支撐AI算力,那TPU又在起什麼作用?它和我們手機裡的晶片有本質區別嗎?實際上TPU就像AI的專屬廚師,專門做AI最需要的算力工作,不多但精準高效。一、TPU1、TPU不是一開始就為通用AI設計的很多人以為TPU從誕生就針對大模型訓練,其實它最初是Google為自家業務定製的工具。Google ML發展關鍵時間線(2011-2015)2015年前後,Google的搜尋排序、語音識別這些服務需要大量重複的數值運算,當時的GPU處理起來總有些力不從心,要麼速度不夠,要麼耗電太多。Google工程師乾脆重新設計晶片架構,把所有計算資源都集中在這類運算上,這就是第一代TPU的由來。後來大模型興起,大家才發現這種架構剛好符合AI的需求,TPU才從Google內部走向公開市場。TPU v12、TPU不用常見的快取設計普通電腦和手機晶片裡,快取是個重要部件,就像書桌邊的抽屜,常用的東西放裡面方便拿。可是TPU不怎麼依賴快取,反而用了超大頻寬的記憶體。這是因為AI運算的特點和普通計算不一樣,它需要處理海量連續的資料,比如一張圖片的像素點或者一段文字的編碼,這些資料要不斷輸入計算單元。快取的容量再大也裝不下這麼多連續資料,換成高頻寬記憶體,就能像消防水管送水一樣,把資料快速送到計算部分,反而更高效。二、晶片設計1、架構設計TPU的設計第一步就是設計架構,這就像蓋房子先畫圖紙,決定了晶片的性能上限。架構設計要先明確晶片的用途,是給大模型訓練用,還是給智能音箱這類裝置做推理用。訓練用的TPU需要更強的平行計算能力,能同時處理海量資料;推理用的TPU則更看重能效比,不能太耗電。Google最新的Trillium TPU就是典型的訓練型架構,把多個計算部分連在一起,還最佳化了資料傳輸的路徑,相比上一代訓練速度提升了4倍多,能耗反而降了不少。TPU v4 架構2、演算法適配比單純增加參數更重要設計TPU不能只看硬體參數,還要和AI演算法配合好。不同的AI模型,比如圖像識別和語言翻譯,運算邏輯不一樣。如果晶片架構和演算法不匹配,就算參數再高也沒用,就像用菜刀砍骨頭,再鋒利也不如斧頭順手。Google的TPU能在Gemini模型上做得很好,就是因為設計時針對多模態模型的運算特點做了最佳化,比如加強了對圖像和文字混合資料的處理能力。國內企業設計TPU時,也會針對政務、金融這些領域的特定演算法做調整。人工智慧模型訓練計算量趨勢圖3、IP核採購TPU設計不用所有部分都從零開始,有些通用模組可以直接買現成的IP核。IP核就像現成零件,比如記憶體控製器、介面模組這些,有專業公司專門研發銷售。買IP核能節省大量時間,不用再花幾年研發這些成熟技術,還能降低風險。大部分中小設計企業都會用這種方法,只專注於TPU主要計算部分的設計。Google這樣的大企業,為了追求最好的性能,會自己研發所有IP核,但投入的研發費用往往要數十億。三、晶圓1、矽片TPU的製造要從矽片開始,這種高純度的矽片表面光滑,純度要達到99.9999999%以上,一點雜質都可能影響晶片性能。矽片的尺寸也很重要,現在主流是12英吋矽片,一片就能切割出幾百個TPU晶片,比小尺寸矽片的效率高很多。生產矽片的過程很複雜,要經過晶體生長、切片、拋光等幾十道工序,國內的中環股份、滬矽產業都能生產這種高純度矽片,不過高端產品還需要進口。2、光刻光刻就像給矽片刻上電路圖案,是製造環節最重要的一步。這個過程需要用光刻機,把設計好的電路圖案通過雷射投射到塗了光刻膠的矽片上,再用化學藥劑蝕刻,形成電路紋理。TPU的製程越先進,光刻的難度就越大。目前主流的TPU用7奈米或5奈米製程,需要極紫外光刻機才能完成。全球能生產這種光刻機的企業很少,台積電就是靠掌握先進光刻技術,成為Google、蘋果等企業的TPU代工廠。3、摻雜工藝矽本身的導電性能一般,需要通過摻雜工藝來調整。簡單來說就是在矽片的特定區域注入硼、磷這些雜質,形成PN接面,這樣才能控制電流,讓晶片完成計算。摻雜的精度要求極高,雜質的濃度和注入深度都要精確到奈米等級。不同的計算部分,摻雜的參數不一樣,比如TPU的主要計算區域需要更高的導電效率,摻雜濃度就會高一些;而外圍的控制區則需要更穩定的性能,摻雜參數會更穩。四、封裝測試1、封裝晶圓切割成單個晶片後,下一步就是封裝。封裝主要有三個作用:一是保護晶片不受潮濕、灰塵這些外界環境影響;二是引出晶片的電極,方便和外部電路連接;三是幫晶片散熱——TPU工作時會發熱,封裝材料和結構都影響散熱效果。訓練用的TPU功率大,所以會用更複雜的倒裝封裝技術:把晶片正面朝下貼在基板上,這樣散熱路徑更短。國內像長電科技、通富微電這些企業都能做TPU封裝,技術水平和國際企業差不了多少。2、測試要過三道關封裝好的晶片不能直接出廠,得經過嚴格測試,主要有三道關。第一道是性能測試,用專門裝置給TPU輸入測試資料,檢查計算速度、精度這些指標是否符合要求——Google的TPU還會專門測試在Gemini模型上的訓練效率。第二道是穩定性測試,把TPU放在高溫高濕的環境裡連續工作幾百小時,看看會不會出故障。第三道是功耗測試,測測不同負載下的耗電量,確保符合設計要求。不合格的晶片會被標記淘汰,合格率直接關係到企業的成本。能效比例3、模組化設計現在的TPU大多用模組化封裝,把多個晶片整合到一個模組裡——比如Google的TPU Pod就是由好幾個TPU晶片組成的。這種設計有兩個好處:一是組合起來方便,根據需求拼接不同數量的模組,就能滿足不同的算力需求;二是維護起來省事,如果某個晶片壞了,只換對應的模組就行,不用把整個裝置都廢掉。智算中心裡的TPU叢集都用這種方式,維護人員不用拆開晶片,直接換模組就能解決問題,能省不少停機時間。五、材料供應1、聚氨酯材料這裡說的聚氨酯材料和晶片不是一回事,但在TPU產業鏈裡也挺重要的。汽車車衣用的就是熱塑性聚氨酯材料,彈性好、耐老化,還能防刮擦。張家界有家企業專門做這種材料,全球市場佔有率能到90%,連阿迪達斯的運動鞋都用他們的TPU膠膜來粘接。生產這種材料需要高品質的聚酯多元醇,國內的華峰化學通過收購企業,打通了從原料到成品的全鏈條,成本比進口材料低很多。2、光刻膠光刻膠是光刻環節必須用的材料,塗在矽片表面,經過雷射照射後會發生化學反應,形成可以蝕刻的圖案。光刻膠的質量直接影響電路精度,先進的5奈米製程得用極紫外光刻膠,這種材料研發難度很大,成分配比要精確到百萬分之一。現在國內企業已經能生產28奈米製程用的光刻膠,高端的還得從日本或者美國進口。光刻膠的儲存條件也挺嚴格,得放在低溫環境裡,不然會失效。3、散熱材料TPU工作時產生的熱量要是不能及時散出去,會影響性能甚至縮短壽命,所以散熱材料就很關鍵。封裝環節會用到散熱膏和散熱片:散熱膏填在晶片和散熱片之間的縫隙裡,能提高導熱效率;散熱片則增大散熱面積,把熱量傳到空氣裡。大功率的TPU叢集還需要專門的液冷散熱系統,用冷卻液把熱量帶走。國內像高瀾股份、同飛股份做的液冷系統,已經用到不少智算中心的TPU叢集裡了,散熱效率比傳統的風冷高3倍多。六、終端整合1、智算中心是TPU的主要陣地智算中心就像TPU的大本營,很多TPU在這裡組成叢集,給AI企業提供算力服務。天津移動建的TPU智算中心,通過最佳化叢集佈局和散熱系統,單位算力成本降了很多。這些智算中心會根據客戶需求,提供不同的算力套餐:比如給科研機構提供大模型訓練用的高算力服務,給中小企業提供智能客服推理用的輕量算力服務。像視拓雲這樣的企業,還把TPU算力做成了零售業務,客戶按需購買就行,不用一次性投很多錢建機房。2、汽車行業TPU在汽車行業的應用分兩種:一種是晶片,一種是材料。晶片方面,有些智能汽車的自動駕駛系統會用TPU做推理,處理攝影機和雷達傳來的路況資料,判斷行人和車輛的位置。材料方面,汽車車衣用的熱塑性聚氨酯材料越來越常見,納琳威做的真漆車衣,還能適配特斯拉賽博皮卡的不鏽鋼車身,貼合度特別高。易車和邦泰集團合作研發車用TPU粒子,做成的車衣性價比更高,已經覆蓋了從一線到三四線城市的門店。3、小型化TPU智慧型手機、智能音箱這些消費電子產品,需要的是小型、低功耗的TPU。智能音箱裡的TPU,主要負責語音識別的推理,能把使用者的語音指令快速轉成文字,還能理解意圖。這種TPU尺寸很小,有的只有指甲蓋那麼大,功耗也低,一節電池就能支援長時間工作。國內的瑞芯微、全志科技都做這類小型TPU,很多智能家電廠商都會買。有些高端耳機裡也會裝小型TPU,用來最佳化降噪演算法。Coral Edge TPU與NVIDIA GTX 1080 GPU在最大功耗和每瓦特運算性能上的對比七、市場規模情況1、全球市場增長速度很快TPU所屬的智能算力市場,這幾年漲得特別快。2024年全球AI算力市場中,GPU和TPU主導的智能算力規模超過了750億美元。有機構估計,2025年這個數字會跳到3500億美元,差不多翻五倍。這當中TPU的佔比還在慢慢上升,特別是Google推出Trillium TPU後,不少企業開始換成TPU來做訓練和推理。Meta甚至打算從2027年開始,在自家資料中心裡裝Google的TPU,這筆單子說不定能到幾十億美元呢。2、中國市場增速超過全球平均中國智能算力市場的增長速度比全球平均還要快。根據IDC和浪潮資訊的報告,2025年中國人工智慧算力市場規模能到259億美元,比去年漲了36.2%。TPU的用途現在越來越多,政務、金融、製造這些行業都在往裡面砸錢。天津、上海這些大城市都在蓋TPU智算中心,中國移動打算到2028年底建成本國最大的智算設施,裡面會裝很多國產TPU。國產TPU的市場份額也在往上走,寒武紀、華為的TPU在國內政務領域用得已經挺多了。3、不同應用場景的市場差異大TPU的市場分佈不太均勻,智算中心佔了大部分,大概能有70%以上。為何呢?因為大模型訓練和推理需要好多TPU湊成叢集,一套裝置的投入就不低。汽車行業的TPU市場漲得最快,特別是自動駕駛和車衣材料這兩塊,2025年的漲幅可能超過50%。消費電子領域的TPU市場規模不算大,但勝在穩,每個智能裝置裡都得有個小TPU,賣出去的數量特別多。材料類的TPU市場也不小,光汽車車衣和運動鞋這兩個地方,全球一年賣的錢就超過一百億美元。八、市場競爭態勢1、Google和輝達國際上TPU市場主要是Google和輝達在搶地盤,不過兩家擅長的地方不一樣。Google的TPU在AI訓練這塊優勢很明顯,特別是和自家Gemini模型搭著用的時候,效率比輝達的GPU高不少,還更省電。輝達則在生態這塊更厲害,好多AI框架都先適配GPU,企業要換成TPU得調整演算法,難度相對大一點。但這種情況正在改變,Google通過雲服務把TPU租給其他公司,Meta這樣的大公司也開始考慮用了,Google在市場上的說話份量慢慢變重了。2、國內企業細分領域國內的TPU企業沒直接和Google、輝達硬碰硬,而是從細分領域入手。寒武紀的TPU主要針對政務和金融行業,這些地方對安全性要求高,國產晶片更吃香。華為的TPU則和自家鴻蒙系統、雲服務綁在一起,在智能汽車和工業網際網路這塊推。材料領域的國內企業表現更亮眼,張家界齊匯新材料在運動鞋用TPU膠膜市場佔了全球90%的份額,邦泰集團在車用TPU粒子這塊的國內市場佔比超過60%。這些企業通過盯著細分市場做,給自己築起了一道競爭的牆。九、需求分析1、網際網路科技巨頭網際網路科技巨頭是TPU的主要客戶,尤其是那些做AI大模型的公司。Google、Meta、百度、阿里這些企業,每年都會買好多TPU搭成算力叢集,用來訓練模型和做推理。他們買TPU的時候最看重性能和穩不穩定,對價格不太在乎。Google自己做TPU,同時也把算力租給其他公司;百度則混著用國產和進口TPU,重要業務用進口的,邊緣業務用國產的來省錢。這些巨頭買的量很大,一單就能佔企業年銷售額的20%以上。2、製造企業製造企業買TPU主要用在兩個地方,一是生產線上的智能檢測,用TPU處理攝影機拍的產品圖片,找出缺陷;二是生產TPU材料做的東西,比如汽車零件、運動鞋材料。這些企業買的時候最看重性價比,不會瞎買高端產品。汽車零件廠商會選國產的中低端TPU晶片,足夠滿足檢測需求,價格比進口的低30%以上。買材料這塊,他們會和供應商長期合作,比如阿迪達斯就把齊匯新材料當成最大的TPU膠膜供應商,兩家還一起研發新產品。3、科研機構和政務部門科研機構和政務部門買TPU,安全是第一個要考慮的。高校和科研院所買TPU主要用來研發AI演算法,他們需要晶片能靈活擴展,適配不同的實驗場景。政務部門買的TPU則主要用在人口統計、交通管理這些地方,資料很敏感,必須用通過安全認證的國產晶片。寒武紀的TPU就通過了好幾個政務安全認證,在好多城市的智能交通系統裡都在用。這些客戶買的量雖然不如巨頭,但訂單穩,給錢也比較快。十、TPU和GPU誰更厲害1、訓練場景TPU更有優勢在AI模型訓練場景裡,尤其是大模型訓練,TPU的優勢很明顯。因為訓練過程需要反覆做矩陣運算,TPU的架構就是專門為這個做的,所有計算資源都集中在這事兒上,沒有多餘功能浪費資源。Google的Trillium TPU訓練Gemini模型時,速度比輝達最新的GPU快4倍,能耗卻低67%。這就意味著訓練同一個模型,用TPU能省好多時間和電費,對經常要訓練模型的企業來說,這筆省下來的錢可不少。2、推理場景兩者各有千秋推理場景就是模型訓練完後,處理實際資料的過程,比如語音識別、圖像分類。這種場景下TPU和GPU各有各的好,得看具體用在那兒。如果是單一任務的大量推理,比如智能音箱的語音識別,TPU更高效,成本也更低。如果是複雜的多工推理,比如自動駕駛同時處理路況、行人、交通燈這些資訊,GPU的通用性更強,能同時處理不同類型的運算,更佔優勢。好多企業會混著用,簡單任務用TPU,複雜任務用GPU。3、生態完善度GPU領先雖然TPU在性能上有優勢,但GPU的生態更成熟,這也是好多企業不願換的原因。現在市面上大部分AI框架、演算法庫都是先適配GPU的,企業要是改用TPU,得重新調整演算法程式碼,還要培訓工程師,花的錢不少。Google為了打破這個局面,做了兩件事:一是開放自己的AI框架,讓開發者更容易適配TPU;二是通過Google雲提供TPU算力服務,企業不用自己買晶片,直接租就能用,降低了換用的難度。隨著越來越多企業試著用,TPU的生態也在慢慢變好。 (小叔報告)
DeepSeek 與 Google 的暗戰:誰會最先找到通往 AGI 的鑰匙?
自從 2022 年 ChatGPT 3.5 橫空出世,讓世人領略到 AI 的非凡魅力;再到 2024 年底 DeepSeek 驚豔登場,給國人帶來了巨大的驚喜與自信。如今,各類大模型(LLM)及 AI 應用已經深刻地改變了我們的生活。AI 每天都在增強功能。昨天做不到的事,今天已經能做;前天做不好的題,今天已經可以輕鬆解決。我們彷彿回到了蒸汽機投入實用後的那段時間——新技術、新發明以肉眼可見的速度狂飆突進。然而,在這波 AI 浪潮的狂歡背後,科技界仍存爭議:LLM 真的是通往 AGI(通用人工智慧)的正確方向嗎? 或者說,僅靠當前的 LLM 就足夠了嗎?答案其實很清晰:不夠。Transformer 是一次偉大的突破,但要讓機器真正“理解世界”,我們仍需要更多類似 Transformer 等級的全新核心技術。凍結的知識快照不是智能我們知道,當前大模型的訓練方法,本質是讓 Transformer 在大量文字裡尋找“詞與詞的關係”,並基於這些統計關係預測下一個詞。訓練完成後,所有知識都被壓縮排最終的權重檔案裡,像一張凝固的“知識快照”。 但之後它不會自動學習新知識,除非重新訓練或微調。明天產生的新知識無法自動融入,換言之,LLM 本身沒有即時的學習能力。從上面你很快能就發現當前基於LLM的AI的兩個“死穴”:其一,LLM只是一個機率模型,它知道“E=mc²”後面大機率跟著“愛因斯坦”,也知道怎麼用這句話造句,但它不知道這公式是怎麼推匯出來的,也不知道如果光速改變了世界會怎樣。它學到的是知識的“投影”(文字),而不是知識的“本體”(邏輯與因果)。其二,它的知識是靜態的。正因為它沒有一個知識的生產過程,所以它不知道這些知識是如何產生的,為什麼會形成這個知識,這些知識為什麼對,為什麼錯。正如X上有某位大佬所言:“當前 AI 水平離真正的 AGI 還差好幾個 Transformer 等級的創新。” 但遺憾的是,現在還沒有可以取代Transformer的新架構。在這一點上,中美其實“站在同一片荒原上”,未來怎麼走,大家都在摸索。理解知識的積累過程,是智能的前提嗎?回想一下人類的學習方式:從小到大,知識是一點一滴積累的,對同一個知識點的理解也是層層遞進的。相比之下,LLM 生成即“凍結”,缺失了進化的過程,所以它“知道”,但它不“理解”。那麼,將知識的積累過程保留下來,會不會是通往 AGI 的一個方向?如果 AI 能復現人類對某個現象的認識過程,是否就能理解其背後的原理,從而舉一反三?至少,可以將這個認識過程當作一種“元模式”記錄下來,在處理新問題時按部就班地套用。當然,這個觀點也存在爭議。因為許多科學突破是“斷層式”的——先是天才的“靈光一閃”,後人再通過邏輯去填補證據。不過,從人類的普適經驗來看,模擬知識的積累過程,肯定有助於 AI 達到人類智能的平均水準。我們不指望 AI 頓悟成愛因斯坦,但達到專家的水平是完全可期的。這個過程可以從兩個角度來分析一是知識的層級性,高階知識依賴並建立在前導知識(基礎概念、技能)之上。比如說,一個人學習流體力學前,需掌握微積分與線性代數。二是學習的漸進性,對具體知識的理解和記憶,是一個從模糊、具體到清晰、抽象的動態過程。對於個人來說,對新概念的掌握,會從最初的生硬記憶,逐漸內化為可靈活運用的直覺。Google的思考:結構化與記憶針對第一個維度(層級性),Google 試圖將模型的知識結構化為不同時間尺度、相互巢狀的層級,提出了“巢狀學習”(Nested Learning)與記憶框架。(參見論文:https://abehrouz.github.io/files/NL.pdf)。“巢狀學習”的核心是將一個複雜的AI模型,視為一系列相互巢狀的最佳化問題。簡單來說,模型的不同部分可以像人的不同記憶一樣,以不同的“速度”學習和更新。簡單舉例,一般的LLM訓練,對於一個文字來說,可以理解成一個平面,從上而下,流式分佈。然後訓練過程相當於找出每個字之間的關係機率,因為處理窗口的關係,如果算到了後面的內容,往往與前面的文字關係就小了,計算時用的權重也就低了。如同一篇小說,即使作者費盡心機在結尾時回應了開頭處的一個梗,填了開始的一個坑,對於AI來說,也是拋媚眼給瞎子看。AI早就忘記了。而Google的巢狀學習,則是對同一篇文章,除正常的訓練方式外,還對文章先在不同的層次上進行預處理。比如先做一個文章梗概,先過一遍文章,把所有作者預埋的“坑”提取出來……,這樣一篇文字就變成了n篇不同維度文字,然後在訓練時,這些文字都參與訓練,可以平行處理,只是訓練參數和訓練方法不同。能根據性質選擇不同精度和速度的計算,而且訓練出的成果是可以疊加的,不再是單一固定的權重檔案。上面的圖就是一個例子,左邊是普通的深度學習訓練過程,而右邊則是巢狀學習的例子,你能看出對於同一個內容,根據進行多次訓練,只是廣度和精度各不相同。此外,Google 的 ReasoningBank 記憶框架(相關論文:https://arxiv.org/abs/2509.25140 )則更進一步。它的思路是讓AI智能體從以往的成功與失敗經驗中,主動提煉出結構化的“記憶項”。每個“記憶項”包含策略標題、描述和推理內容,本質上是對低級經驗的抽象總結。當面對新任務時,AI會檢索並應用這些抽象原則來指導行動,這模擬了人類專家運用已有知識框架去解決新問題的過程。DeepSeek的嘗試:多維感知與自驗證推理針對第二個維度(漸進性),DeepSeek 在感知與推理兩個層面都展現了對人類思維模式的深度模擬。首先在視覺感知層面,以 DeepSeek-OCR 為例,他們採用了一種獨特的“多解析度訓練”思路:不僅僅是對圖像進行簡單的向量化,而是試圖模擬人類的視覺認知過程——即 “從模糊到清晰” 的動態掃描。對同一張圖片(場景),模型會同時學習其低解析度的宏觀輪廓與高解析度的微觀細節(相關技術細節可參看此前的公眾號文章)。這種策略暗合了人類大腦處理視覺資訊的生物學模式:先建立全域印象,再填充局部細節。不僅在感知上發力,DeepSeek 更試圖在推理層面重現人類的“反思”能力。DeepSeek 不僅在基礎大模型上發力,向各個專家模型演進(如 DeepSeekMath-V2),更在某些領域嘗試模擬人類的“記憶狀態”。在 2025 年 11 月 27 日剛剛發佈的 DeepSeekMath-V2(論文:https://arxiv.org/pdf/2511.22570 )中,DeepSeek 引入了突破性的 “自驗證”(Self-Verification) 機制。這相當於讓 AI 進化出了“自我監考”的能力。傳統的模型像是一個只顧填答題卡的考生,只在乎最終答案是否命中;而 DeepSeekMath-V2 則像是一個嚴格的老師,它不僅檢查答案的對錯,更會一步步審視 解題過程(Process) 的邏輯鏈條。通過這種方式,模型不再是“蒙”對了一個答案,而是真正確信自己“理解”了這道題。這種從“結果導向”向“過程導向”的轉變,是 AI 邁向深度邏輯推理的關鍵一步。DeepSeek 的“自驗證”機制構成了一個自我完善的智能閉環:它不僅能評估解題過程,更能主動生成推理步驟並對其驗證。這模仿了人類的元認知與自我學習能力。古人倡導“吾日三省吾身”,而 AI 則可實現瞬時、高頻的自我審視與迭代最佳化。如下圖(論文中的附圖)所示,隨著驗證次數(最高達7次)的增加,模型解決問題的能力顯著提升,充分體現了通過“反覆自學”實現能力進化的潛力。雖然上述分別列舉了兩家公司的例子,但在技術演進的洪流中,它們並非孤立存在。Google 的巢狀學習涉及不同清晰度資料的處理,而 DeepSeek 的多專家系統(MoE)及多層次資料訓練,本質上也是在對知識進行結構化拆解。結尾:AGI的未來方向,也許正在悄悄顯現從 Google 到 DeepSeek,我們正在看到一個趨勢越來越明確:真正的智能,不是更大的模型,而是更“結構化”的學習過程。未來的 AI,可能會具備:能分層理解知識結構的能力能保持多時間尺度記憶的能力能自主總結“經驗規則”的能力能在模糊與清晰之間漸進切換的能力能記錄“知識的進化史”而不是只記錄結論這些能力加在一起,不是“下一代更大的 Transformer”,而是:一種能夠像人一樣“成長”的架構。我們或許距離 AGI 仍有數個重要突破,但路徑正在變得越來越清晰:不是簡單堆算力、堆資料,而是讓模型獲得“理解知識如何生成”的能力。或許,真正的智能不是一夜之間的奇蹟,而是一次又一次讓機器“重走人類認知之路”的漫長積累。而現在,我們正在走在這條路的最前面。 (亍雲旁觀)
拳打谷歌,腳踢 Claude?我用 9.9 元的國產模型寫了個遊戲,結果直接沉默了
這兩周,AI 程式設計圈簡直捲出了天際。前腳Google剛發完新模型,後腳 Claude 就跟進大招。很多人為了嘗鮮,還在折騰各種“魔法”,費盡周折去申請那些國外的帳號。但大部分人都沒意識到,其實真正的“版本答案”根本不需要翻山越嶺,就在我們家門口。01| 唯一的中國獨苗,殺瘋了我們不看跑分,直接看看全球最大的模型聚合平台——OpenRouter 上的實戰資料。這可是被稱為 AI 界的“照妖鏡”。結果一看,直接給我整沉默了:圖:MiniMax M2 在 OpenRouter 程式設計分類的排名好傢伙,在一眾中美巨頭壟斷的 AI 程式設計模型 Top 5 榜單裡,中國獨苗只有這一家:MiniMax M2。不僅是上榜,它的實戰熱度更是嚇人。根據統計,M2 的 Token 呼叫量穩居全球前五,高峰期甚至一度飆升到了全球第三,直接跟在Claude Sonnet 4.5 和 Gemini Flash 後面貼身肉搏。圖:MiniMax M2 Token 量排名這意味著什麼?意味著在全球範圍內,已經有無數程式設計師用腳投票,認可了它的實力。02|價格屠夫:9.9元把門檻踩碎如果說排名只是讓我驚訝,那看到價格的時候,我就是震驚了。M2 的價格直接打到了競品 Claude 的 8%。 注意,這不是打折,這是打骨折。前兩周,他們又搞了個大動作——基礎版首月只要 9.9 元 。你沒聽錯,一杯瑞幸的錢(甚至還買不到生椰拿鐵),就能讓你“雇”到一個全球 Top 5 等級的 AI 程式設計師,而且是包月、不限速。不僅如此,它的每款套餐價格都是吊打 Claude:圖:MiniMax M2 套餐對比這就不僅僅是“真香”了,這是直接把 AI 程式設計的門檻給踩碎了。作為經常測評各種工具的博主,我必須替大家驗證一個問題:這 9.9 元,到底是“智商稅”,還是普通人逆襲的神器?03|極限實測: 它真能幹活嗎?光說不練假把式。我準備了兩個我們日常最頭疼的場景,看看它能不能接得住招。挑戰一:復刻殺時間神器“2048”午休無聊想摸魚?貪吃蛇玩膩了?我決定讓 M2 給我手搓一個經典的“數字毒藥”——2048。看看它能不能搞定那個複雜的合併演算法。我的指令 (Prompt):請幫我用 HTML + CSS + JS 復刻經典遊戲 2048。具體要求:介面:經典的 4x4 網格,背景要暖色調(米色/淺黃)。核心邏輯:使用鍵盤方向鍵或手機滑動控制數字移動。相同的數字碰撞時合併翻倍(2+2=4,4+4=8),並有平滑的移動動畫。樣式:不同的數字(2, 4, 8... 2048)要有明顯的顏色區分,數字越大顏色越深。計分:頂部即時顯示當前分數和歷史最高分。一個指令下去,整個過程我只需要一路狂按回車。不到 3 分鐘,神奇的事情發生了:圖:MiniMax M2 遊戲生成過程(加速版)這個過程非常有意思,M2 會先思考遊戲的邏輯,然後一步步的把遊戲寫出來。它甚至能自己更新自己寫過的程式碼。圖:MiniMax M2 自動修復更新程式碼M2 甚至展現出了一種“老程式設計師”的素養:它不僅寫了程式碼,還自己開了個 HTTP Server 跑了一遍測試,順手把 Bug 給修了。這不僅是把開發的活幹了,連維運的活也包圓了。圖:MiniMax M2 自動開啟 HTTPServer 並測試都結束之後,我打開這個遊戲,簡直和原版一模一樣。打開遊戲,按下方向鍵,數字塊“刷刷”地滑動、合併,那個絲滑的動畫效果,完全不像是一個 AI 在兩分鐘內寫出來的“草稿”。邏輯類的“滿分作業”。如果你想做個小工具、小遊戲,它完全夠用。圖:MiniMax M2 生成的 2048 遊戲挑戰二:無中生有做資料分析之前很多想學資料分析的朋友跟我抱怨:“我想學,但手頭沒有資料啊!”其實,這也難不倒 M2。我給它出了個難題:兩步走,先造假(模擬)資料,再做高級圖表。第一步:無中生有(造資料)請幫我寫一個 Python 指令碼,隨機生成一份包含 2000 條記錄的‘奶茶店銷售資料.csv’。欄位要豐富,包含:訂單號、下單時間(精確到分鐘)、使用者性別、奶茶口味(5種)、甜度(無糖/三分/半糖/全糖)、會員等級(普通/VIP)、訂單金額。直接運行這個指令碼,幫我生成檔案。M2 二話不說,呼叫 Python 指令碼瞬間生成了一份極其逼真的 CSV 檔案。第二步:全自動分析(出炫酷圖表)現在,讀取剛才生成的 CSV 檔案,幫我用 Plotly 庫生成一個高級互動式 Dashboard,包含以下圖表:銷售熱力圖 (Heatmap):橫軸是‘星期幾’,縱軸是‘小時’,顏色深淺代表銷量。我要一眼看出那天那個點最忙。使用者偏好桑基圖 (Sankey):展示‘使用者性別 -> 會員等級 -> 甜度偏好’的流動關係。客單價箱線圖 (Box Plot):對比 VIP 會員和普通使用者的消費金額分佈。洞察:根據圖表,自動總結出 3 條行銷建議。出圖的過程更加複雜一點,因為遇到一些畫圖模組沒有,不過不用擔心,它完全自動的給裝上了。圖:MiniMax M2自動解決依賴庫問題這其實是一個非常爽的過程,寫過程式碼的人都知道,安裝各種依賴庫簡直會讓人吐血。震撼結果:這是真正的“自產自銷”。 M2 先是用 Python 的 faker 庫給我捏造了一份極其逼真的資料。緊接著,它生成的 Dashboard 簡直絕了:圖: MiniMax M2 生成的資料分析圖那個熱力圖,一眼就看出來,基本上每天下午 4-5 點顏色最深(摸魚喝奶茶高峰期)。圖:MiniMax M2 生成的資料分析圖最神的是那個桑基圖,你能清晰地看到“女生 VIP 使用者基本都流向了“無糖/半糖”,看來美女都怕糖是真的!圖: MiniMax M2 生成的資料分析圖以後別再說沒資料練手了。9.9元,你不僅有了分析師,連“資料造假...啊不,資料模擬”的活兒它都包圓了。這種圖以前我得調半天程式碼,現在 M2 一分鐘出圖。04|速度快到飛起天下武功,唯快不破。程式設計這個場景,速度是個關鍵指標,對程式設計的體驗影響也非常大,也直接影響到開發效率。我看了一下 OpenRouter 上資料,這個 M2 簡直是離譜,它的 TPS(每秒輸出 Token 數)基本上是 Claude Opus/Sonnet 4.5 的兩倍。比 Gemini 3 Pro 也高了近 50%!圖:MiniMax M2 速度對比另外,M2 已正式支援圖像理解、聯網搜尋 MCP。05|怎麼用?M2 的接入非常簡單、絲滑。MiniMax 做了 API 生態的全面適配,支援Anthropic 和 OpenAI 兩種標準格式。不管你是用現在的網紅編輯器 Cursor、Claude Code,還是其他的 AI 工具,它基本都能無縫接入。只要三步,就能用上了。第一步:先訂閱一個套餐:https://platform.minimaxi.com/subscribe/coding-plan選擇一個適合自己的檔位,比如我選擇了只需要 9 塊 9 的 Starter,然後下單。第二步:獲取 API Key訂閱成功後,平台會給你生成一個 Coding Plan 專用的 API Key。複製就好了。圖:MiniMax M2 API 介面第三步: 打開你常用的 AI 程式設計工具,把 Key 填進去。在 Claude Code 裡面設定比較簡單,在配置檔案~/.claude/settings.json設定這些參數即可:{"env":{"ANTHROPIC_BASE_URL":"https://api.minimaxi.com/anthropic","ANTHROPIC_AUTH_TOKEN":"","API_TIMEOUT_MS":"3000000","CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC":1,"ANTHROPIC_MODEL":"MiniMax-M2","ANTHROPIC_SMALL_FAST_MODEL":"MiniMax-M2","ANTHROPIC_DEFAULT_SONNET_MODEL":"MiniMax-M2","ANTHROPIC_DEFAULT_OPUS_MODEL":"MiniMax-M2","ANTHROPIC_DEFAULT_HAIKU_MODEL":"MiniMax-M2"}}當然,這裡的MINIMAX_API_KEY要換成你自己的。圖:配置 Claude Code配置完之後,你就擁有了一個24小時待命、不喝咖啡、不發脾氣、還巨便宜的頂級程式設計師助手。最後說兩句MiniMax 搞 9.9 元 ,是不是在卷價格戰? 是,肯定有商業考量。但作為使用者,我感謝這種“卷”。兩年前,為了用好一點的模型,我們得當“網路難民”,忍受高價和封號。但 2025 年,世道變了。國產模型不再是無奈的“備胎”,而是好用且便宜的主力。當算力門檻降到 9.9 元 時,這就叫“技術平權”。所以,真誠建議大家:別光在岸上看,跳下去試試。萬一,它真幫你把心底那個 App 的夢做出來了呢?騰出時間,去造夢吧。程式碼的事,交給 AI。 (AI范兒)
Google自曝三大AI眼鏡計畫!對戰蘋果Meta
打出“Android+Gemini”組合拳,AndroidXR平台成技術融合起點。Google的AndroidXR全家桶,迎來重磅更新!智東西12月9日報導,今天凌晨,Google在AndroidXR特別直播活動中重磅發佈了AndroidXR生態的多項全新進展:首款AndroidXR頭顯三星Galaxy XR上線三大新功能;與中國創企XREAL合作的有線XR眼鏡Project Aura確認將於2026年發佈;AI眼鏡原型機首次用上GoogleNano Banana圖像編輯能力;同時,面向AndroidXR開發者的整套SDK與API全面升級。Google正以“Android+Gemini”的組合拳,加速推進AndroidXR平台的進化。Google副總裁、AndroidXR主管Shahram Izadi和三星執行副總裁、XR負責人Kihwan Kim共同主持了這場發佈會。在開場時,二人介紹,AndroidXR生態是一個完整的“裝置光譜”。光譜的一端,是功能強大的頭顯,用於較短時間、更沉浸式的計算任務,比如觀看3D電影、玩遊戲和處理工作。另一端則是輕量級的AI眼鏡,可全天佩戴,快速獲取資訊。而中間則是融合了兩者的裝置,比如有線和無線的XR眼鏡。在XR頭顯領域,AndroidXR進一步補齊了互動體驗。如今,Galaxy XR可以通過PC Connect直連電腦,全新的“Likeness”功能酷似Vision Pro的Persona功能,讓使用者的虛擬形像在XR世界裡更逼真了。Galaxy XR還將在明年新增系統自動空間化功能,讓每個視訊、網頁都能提供沉浸式互動體驗。XR眼鏡則將頭顯所能提供的體驗輕量化。Project Aura的更多細節在這場發佈會曝光,其採用的光學透視功能讓使用者能兼顧顯示與虛擬世界,還可以與PC等裝置直連,Gemini也融入了Project Aura,支援螢幕問答功能。AI眼鏡方面,除了Nano Banana修圖的功能演示外,Google並未帶來太多驚喜。不過,AndroidXR開發者在AI眼鏡領域的工具包迎來多項升級:適用於AI眼鏡的全新設計語言與UI元件發佈,AI眼鏡模擬器發佈,運動追蹤和地理空間等工具和功能也同步上線,讓開發者更方便地為AI眼鏡打造專屬應用。從XR頭顯到XR眼鏡再到AI眼鏡,Google用AndroidXR一統多形態擴展現實裝置的戰略,已經日漸清晰。01. Galaxy XR首推虛擬形象 明年要讓2D內容一鍵變3DAndroid生態主席Sameer Samat稱,隨著Gemini和Android的融合,未來的裝置都將變得更為智能,向通用助手的方向轉變。這將從根本上改變我們與技術互動的方式,AndroidXR平台就是上述技術開始融合的起點。AndroidXR是業界首個用於擴展現實裝置的統一平台,由Google、三星和高通在Android的基礎上建構,這意味著Google生態裡所有的應用都可用於AndroidXR。今年10月,Google和三星聯手推出了Galaxy XR,這是首款由AndroidXR驅動的裝置,具備高解析度、多模態AI輸入,並內建由Gemini驅動的AI功能。比如,使用者可以在XR世界裡沉浸式體驗Google地圖裡的街景,然後召喚出Gemini詢問更多資訊。AndroidXR生態也在不斷擴展,發佈僅一個月後,Google Play商店中現在已有超過60款為XR打造的應用和遊戲。今天,Galaxy XR擴展了一系列新功能。全新的PC Connect功能讓使用者可以直接從筆記本拉取一個窗口,呈現在XR裝置上。這一功能可用於辦公、創作和娛樂,GoogleXR的產品經理演示了在XR螢幕上玩《城市:天際線2》的體驗。Galaxy XR還推出了“Likeness”,讓使用者能在各類視訊會議軟體中,呈現自己更為逼真的XR虛擬形象。這一功能與蘋果Vision Pro的“Persona”頗為類似。上述兩項新功能,以及沉浸式的旅行模式功能於今天即刻推出,Galaxy XR還將在明年新增系統自動空間化(System autospatialization)功能,允許使用者在多個應用中將普通的2D內容轉換為3D內容。這一過程完全是在頭顯上運行的,所以幾乎適用於任何應用,能讓每個遊戲、每個YouTube視訊甚至是整個網頁都變成沉浸式的。02. 與XREAL合作產品明年發佈Nano Banana融入AI眼鏡除了Galaxy XR之外,Google也在建構AndroidXR的裝置生態。他們與國內XR眼鏡創企XREAL合作的Project Aura,將提供AndroidXR生態中全新的有線XR眼鏡體驗。戴上Project Aura後,映入眼簾的首先是通過透明鏡片看到的周圍真實世界。這被稱為光學透視,讓使用者用自己的眼睛看世界。Project Aura將虛擬體驗投射到使用者的視野中,並允許使用者像使用AndroidXR頭顯一樣用手勢互動。Project Aura通過一個有線連接的小型計算模組供電,該模組包含主要計算單元和電池,還可以兼作觸控板,這讓眼鏡本身保持相對輕便舒適。這款XR眼鏡也可以與PC等裝置直接連接。在連接PC時,使用者可以直接通過電腦的鍵盤和觸控板與之互動。Gemini也融入了Project Aura,它可以看到螢幕上的內容,甚至是電腦視窗裡的內容。使用者可以通過鏡腿上的按鈕觸發Gemini,並直接向其提問與畫面內容有關的問題。這款XR眼鏡的正式產品名尚未公開,Google稱其將於2026年正式發佈。在AI眼鏡領域,Google此前已經在I/O大會上展示了原型機。在與三星的合作中,Google正與Warby Parker和Gentle Monster兩大眼鏡品牌,合作打造兩種類型的眼鏡。一類裝置是無顯示AI眼鏡,將配備內建揚聲器、攝影機和麥克風,使用者可以聽音樂、打電話、拍照,或是與Gemini對話等等。另一種是帶有螢幕的AI眼鏡,也就是I/O大會上的同款產品。GoogleXR高級總監Juston Payne演示了後者的原型機。這款眼鏡支援視覺問答、即時翻譯等有顯示AI眼鏡的常見功能。讓人眼前一亮的是,Google的Nano Banana圖像編輯模型,這回也融入了AI眼鏡。Payne用眼鏡給現場人員拍了張照片,然後在畫面中P上了一個戴著墨鏡的Android機器人形象,全程靠語音互動實現。不過,Google用小字標註稱,P圖的延遲是模擬的。03. 開發者工具包大放送AI眼鏡成更新重點Google還官宣了一系列AndroidXR開發者SDK和API更新。GoogleAndroid開發者產品管理副總裁Matthew MaCullough稱,AndroidXR使用了開發者從建構自適應應用時就已熟悉的API和工具,換句話說,為Android開發,就是在為XR開發。AndroidXR SDK的開發者預覽版3於今天發佈,此版本擁有更高的穩定性和一系列新功能,面向AI眼鏡的更新成為一大重點。在面向XR頭顯的開發工具包中,AndroidXR增加了用於建構豐富3D場景的新功能,例如具有柔性頭部鎖定和過渡效果的空間動畫。此外,適配現有UI變得更加容易了。Material 3元件如今可以自動轉化為XR元素。為了增強AI眼鏡的使用體驗,AndroidXR為Jetpack XR SDK 引入兩個全新、專門建構的庫:一個是Jetpack Projected API,這一API讓開發者能將現有的移動端App直接遷移到AndroidXR平台上,並支援從移動端App訪問螢幕、攝影機等XR裝置元件。Jetpack Compose Glimmer則是一套全新的設計語言和UI元件,用於打造有顯示AI眼鏡的互動體驗。其UI元件針對AI眼鏡的輸入方式和樣式要求進行了最佳化,能做到清晰、易讀,且最大限度地減少干擾。AndroidStudio中引入了AI眼鏡模擬器,可以模擬眼鏡特有的互動方式,例如觸摸板和語音輸入。AndroidXR還擴展了Jetpack XR的ARCore,以支援AI眼鏡的更多功能。首批新功能是運動追蹤和地理空間,能夠幫助開發者建立實用的導航體驗,適配AI眼鏡等全天候佩戴裝置。通過與Firebase的合作,Gemini Live API現在能更好地支援AI眼鏡,提供智能互動體驗。Uber已經打造了一套基於AndroidXR AI眼鏡的演示案例。使用者可以在落地機場後,借助AI眼鏡上直接看到接機行程資訊,獲取機場內部導航,並識別車牌號,更便捷地完成打車。對於XREAL的Project Aura等裝置,AndroidXR推出了AndroidStudio中的XR眼鏡模擬器。這款工具可提供精準的內容可視化,同時匹配真實裝置的視場(FoV)、解析度和DPI,加速開發。04. 結語:專注平台不造硬體 Google沒走Google Glass的老路AndroidXR平台去年年底發佈預覽版,並於2025年正式發佈。1年時間裡,該平台已經在頭顯、XR眼鏡與AI眼鏡領域有了快速進展。與此前自研Google Glass的模式不同,在硬體層面,Google選擇與三星、XREAL等廠商合作,自己則專注於AndroidXR平台本身,以統一的平台、統一的能力和統一的開發體系,構築一個龐大的XR生態。對於產業鏈而言,在AndroidXR的帶動下,XR裝置擁有了統一的作業系統平台,某種程度上緩解了XR裝置此前的生態碎片化問題。未來,AndroidXR能否持續推動XR的應用和內容生態繁榮,值得持續關注。 (智東西)
AI 算力:Google vs 輝達
近日,SemiAnalysis發佈文章《TPUv7: Google或終結輝達的CUDA護城河》指出,世界上最好的兩大模型Anthropic的Claude 4.5 Opus和Google的Gemini 3主要的訓練和推理基礎設施用的都是Google的TPUs和亞馬遜的Trainium,尤其Gemini 3完全是基於TPUs訓練的。事實上,Anthropic等AI實驗室現在可以通過採購(或者威脅採購)TPU,來作為與輝達談判的籌碼,從而大幅降低其GPU的總體擁有成本。黃仁勳從多年前反覆強調的、語氣詼諧但似乎又是不爭的事實的“The more you buy, the more you save”,本來是說The more GPUs you buy, the more money you save,現在似乎就要變成“The more TPUs you buy, the more GPUs you save”。Google2006年開始打造AI專用的基礎設施,到2013年忽然發現,如果要大規模部署AI,就需要讓資料中心的數量翻倍,於是伴隨著越發緊迫的算力需求,TPU晶片在2016年投產,一開始只用於Google內部的工作流,2018年面向GCP客戶提供服務,然後商業化路線越發清晰,現在不僅通過GCP讓TPU全端能力惠及外部客戶,而且作為供應商直接出售完整的TPU系統。今年10月,Anthropic宣佈進一步使用Google雲的技術,包括在2026年投入數百億美元,以多至100萬塊TPUs上線超過1吉瓦的算力,用以支援AI研究和產品研發。而在Anthropic之外,Meta、SSI、xAI等也已加入GoogleTPU的客戶名單。輝達前幾天甚至發文試圖穩住市場對自己的信心,雖然所謂“祝賀Google的成功(We’re delighted by Google’s success)”沒有明確指向是AI應用的成功還是基礎設施的成功——Perhaps both.想到上個月巴菲特的Berkshire Hathaway建倉Google母公司Alphabet,持倉43億美元,而這是股神首次買入“AI題材股”。想到薛兆豐老師的《漫畫經濟學》說:所謂的“內幕消息”都會提前反映在資產價格中。不過,這裡的“內幕消息”絕不只是浮於表面的“某條消息”。SemiAnalysis在兩三年前就預言“TPU霸權(TPU supremacy)”,過去一年的持續追蹤也證明了,GoogleTPU的強勢崛起已經成為一個顛覆性的市場力量。儘管單顆TPU晶片的理論峰值算力可能與輝達旗艦產品還有差距,但Google以卓越的系統級工程能力(system-level engineering)可以實現匹敵輝達的性能和成本效率——相較Gemini 3模型的成功,OpenAI自2024年5月發佈GPT-4o以來,還沒有成功完成一個可大規模部署的前沿模型的全規模預訓練任務;而在具有經濟價值的長程任務測試中,Gemini 3相較GPT 5.1更是毫無懸念地勝出。當然,縱使系統能力很重要,Google也沒有忽視微架構(microarchitecture)。之前Google的TPU設計理念相較輝達更為保守,主要是因為Google優先考慮RAS(可靠性、可用性、可服務性),願意犧牲極限性能來換取更高的可用性,因為硬體故障導致的停止成本會嚴重影響實際的TCO。畢竟,不同於輝達和AMD,Google沒有誇大外部宣傳指標的壓力,不用執著於實際上難以維持的“理論FLOPs峰值”,而且在2023年之前Google的主要AI負載是推薦系統模型,對超高算力的需求沒那麼迫切。但是,進入LLM時代,Google的TPU設計理念也在發生轉變。尤其最新兩代TPU(TPUv6 Trillium和TPUv7 Ironwood)——v6在相同製程和晶片面積下實現了2倍的峰值算力提升,且功耗顯著降低;v7則幾乎全面縮小了與輝達旗艦產品的差距,在算力、記憶體頻寬上接近GB200。事實上,從Google自身的採購視角來看,TPUv7的總體擁有成本比直接採購輝達GB200伺服器要低大約44%,完全彌補了峰值算力和峰值記憶體頻寬方面大約10%的不足。即使是對於外部客戶而言,SemiAnalysis預估每小時的TCO仍然可以比GB200低約30%,比GB300低約41%。另外,TPU的一大特徵在於可以通過ICI互聯協議(Inter-Chip Interconnect)實現極大的規模化擴展,單個TPU pod可以支援高達9216顆Ironwood TPUs,這就可以避免多叢集通訊帶來的效率損耗。然而,GoogleTPU的部署速度受制於電力資源和緩慢的行政流程。對此,Google採用“表外信用擔保”模式,通過為Fluidstack等靈活的新興雲提供商(Neoclouds)提供背書,間接利用轉型礦商等新興資料中心提供商所擁有的電力和基礎設施。這個模式很大程度上解決了Neocloud行業的融資難題,i.e. 算力叢集4-5年的經濟壽命與資料中心15年以上租約的期限錯配,SemiAnalysis預測這種“超大規模雲服務商擔保”的模式或成為行業新標準。而CoreWeave、Nebius、Crusoe等與輝達深度繫結的Neoclouds未來可能需要在“爭奪Nvidia Rubin系統配額”與“開拓TPU市場”之間做出關鍵的戰略抉擇。AI算力市場格局正在發生深刻的變革。GoogleTPU的成功意味著AI算力市場不再是輝達“一家獨大”,而競爭或迫使所有廠商不斷推進技術創新和成本最佳化,或許可以推動整個AI產業以更低的門檻、更高的效率向前發展。 (訪穀神)
🎯台積電、聯發科非首選?解鎖:TPU+GPU雙核心時代台廠最賺的三大贏家!Line@連結:https://lin.ee/mua8YUP🎯台幣狂升、外資連5買下台股即將挑戰前高28554了你還在擔心AI只是曇花一現?醒醒吧!錯過的不只是「一桶金」而是整個AI產業革命的核彈級噴發看看特斯拉,放棄多年電動車策略,把巨資轉向AIMeta也抽手三成元宇宙資源, 全面ALL IN AI全球科技巨頭不是傻瓜他們用真金白銀告訴你AI浪花?不存在!這是長期、勢不可擋的浪潮GPU時代結束了嗎?過去靠輝達(GPU)就夠了但現在不是能不能做而是能不能更快、更省、更狠模型越大,訓練成本暴衝於是雙核心策略誕生:GPU+ASICGPU是萬用瑞士刀,ASIC是斬鐵武士刀Google直接雙路混用AI算力進入「雙核心時代」而台廠就是最大贏家。💥晶圓與設計服務:除了2330台積電之外3443創意、3661世芯-KY、2454聯發科成為ASIC黃金三角下一個成長引擎已啟動⚡電力×散熱:AI伺服器越多,最大瓶頸是電力1513中興電、1519華城、1503士電、1514亞力、2308台達電、2301光寶科、1609大亞、3665貿聯、6781AES-KY、4931新盛力、3211順達等全線受惠液冷時代來臨,伺服器散熱設備需求爆量:6805富世達、3017奇鋐、3324雙鴻、3653健策、8996高力💡CPO/矽光子:AI神經網路啟動!3363上詮、6442光聖、3081聯亞、4979華星光、3450聯鈞、4971IET-KY,以及3189景碩、8046南電、3037欣興、2383台光電、2368金像電、6274台燿等PCB/載板廠,都將同步受惠,訂單密度持續拉高!🔴重申:AI雙核心軍備賽才剛開始。想知道下一波暴利股是哪幾檔?想跟江江一起鎖定台股AI核彈級商機!接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)